CDN加速镜像 | 设为首页 | 加入收藏夹
当前位置: 首页 资源下载 搜索资源 - 中文分词 算法

搜索资源列表

  1. 35Improv-word-segment-

    0下载:
  2. 一种改进的中文分词歧义消除算法研究 做中文分词统计语言模型的参考资料-An improved Chinese word segmentation ambiguity elimination algorithm research Do the Chinese word segmentation statistical language model reference material
  3. 所属分类:software engineering

    • 发布日期:2017-11-22
    • 文件大小:592084
    • 提供者:王丽丽
  1. fencizf

    0下载:
  2. 基于java编程,采用最大匹配算法实现简单的中文分词,并过滤停用词-The maximum matching algorithm based on java programming, simple Chinese word segmentation and filtering stop words
  3. 所属分类:software engineering

    • 发布日期:2017-11-13
    • 文件大小:736256
    • 提供者:赵飞
  1. IKAnalyzer3.2.0Stable_bin

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source toolkit, Chinese word segm
  3. 所属分类:Other systems

    • 发布日期:2017-11-10
    • 文件大小:1742374
    • 提供者:yw
  1. RMM

    0下载:
  2. 这个是RMM算法,支持正向、逆向最大匹配,是自然语言处理的重要算法之一,只要替代程序中的词库即可。本词库取自1988年人民日报语料材料,算法对中文分词精确度达到90 以上-This is RMM algorithm supports forward, reverse maximum matching, natural language processing algorithm, as long as the alternative procedures thesaurus can. The th
  3. 所属分类:Search Engine

    • 发布日期:2017-11-09
    • 文件大小:251403
    • 提供者:he
  1. GP

    0下载:
  2. 一个简单的中文分词系统,基于正向最大匹配算法和逆向最大匹配算法。-A simple Chinese word segmentation system, based on the forward and reverse maximum matching algorithm maximum matching algorithm.
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-06-03
    • 文件大小:15278996
    • 提供者:董旭
  1. Chinese-Word-Segmentation

    0下载:
  2. Chinese Word Segmentation 中文分词 python2.7.5代码,自己编写亲测可用,最大整下匹配算法效果良好-Chinese Word Segmentation
  3. 所属分类:Other systems

    • 发布日期:2017-05-24
    • 文件大小:3399875
    • 提供者:Lorenzo
  1. chinese-word-ppl

    0下载:
  2. 中文分词以及具有简单界面中文分词系统,使用双向匹配算法,并可选择算法不同进行分词-Chinese word segmentation, and has a simple interface Chinese word segmentation system
  3. 所属分类:CSharp

    • 发布日期:2017-05-06
    • 文件大小:1394082
    • 提供者:wyp
  1. nixiang

    0下载:
  2. 最新逆向最大匹配分词算法 盘古分词 分词算法 中文分词 源码-New reverse maximum matching word segmentation algorithm Pangu Chinese word segmentation algorithm source
  3. 所属分类:.net

    • 发布日期:2017-04-10
    • 文件大小:1203667
    • 提供者:李果果
  1. automatic-word-segmentation

    0下载:
  2. 实现一个中文自动分词程序,所使用的编程语言不限 选作:对人名,地名,机构名的识别 下载北大计算语言所标注的99年人民日报分词语料库,构建一个词表 实现正向、逆向最大分词算法-To implement a Chinese automatic word segmentation procedure, used by any programming language Chosen for: the person names, place names, organization name
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-04-03
    • 文件大小:426197
    • 提供者:黄艳玲
  1. FreeICTCLAS

    0下载:
  2. 对中文进行分词,c++实现多中文文本的分词算法-Using java prepared tf* idf results
  3. 所属分类:Algorithm

    • 发布日期:2017-05-13
    • 文件大小:2717670
    • 提供者:静静
  1. Word_Seg1

    0下载:
  2. 分词算法本实验采用已有的分词算法——双向匹配算法,对中文分词进行研究,以获取与了解中文分词的知识。双向匹配算法综合了正向最大匹配算法与逆向最大匹配算法,以提高中文分词的正确率。-word participles
  3. 所属分类:Other systems

    • 发布日期:2017-05-11
    • 文件大小:2333780
    • 提供者:侯小爱
  1. fenci

    0下载:
  2. 运用正向最大匹配算法和反向最大匹配算法,在已有预料库的基础上实现中文分词-The maximum matching algorithm using forward and reverse maximum matching algorithm, the library has been implemented on the basis of expected Chinese word
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-05-17
    • 文件大小:4175947
    • 提供者:吴佩
  1. Program1

    0下载:
  2. 这是中文信息处理的分词算法实现,具有很高的正确率和使用价值!这是分词算法的核心内容!具有很高的参考价值。-The text clustering algorithm based on text similarity computing research and implementation, this is an important branch of Chinese information processing.
  3. 所属分类:Data structs

    • 发布日期:2017-05-20
    • 文件大小:5684999
    • 提供者:张明
  1. suanfa

    0下载:
  2. 基于双向匹配法和特征选择算法的中文分词技术研究-Words in technology selection algorithm based on two-way matching and feature Chinese sub
  3. 所属分类:Project Design

    • 发布日期:2017-05-07
    • 文件大小:1453183
    • 提供者:qw
  1. BP-neural-network--based-on-Joone

    0下载:
  2. 基于joone编写的bp神经网络算法,并用到中文分词中,其中以“这支歌太平淡无味了”分词为例, 这支/歌/太/平淡/无味/了 为正确结果,分别获取两者的unicode的二进制形式作为输入样本和期望样本进行训练和测试。-Based joone written bp neural network algorithm, and used in Chinese word, unicode binary form as the input sample and expectations samples f
  3. 所属分类:AI-NN-PR

    • 发布日期:2017-04-16
    • 文件大小:13216
    • 提供者:huangke
  1. ictclas4j

    0下载:
  2. 中文分词器ictclas4j的源码,含有分词器的算法源码,以及案例-Chinese tokenizer ictclas4j source containing the word algorithm source code, as well as case
  3. 所属分类:Java Develop

    • 发布日期:2017-05-13
    • 文件大小:3091050
    • 提供者:huangke
  1. cppjieba-master

    0下载:
  2. 中文分词功能,采用统计学习算法来实现,准确率较高-Chinese word function, using statistical learning algorithms to achieve high accuracy
  3. 所属分类:Data structs

    • 发布日期:2017-05-25
    • 文件大小:8361942
    • 提供者:liweiqing
  1. IKAnalyzer

    0下载:
  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 -IKAnalyzer is an open source, lightweight java-based de
  3. 所属分类:Compress-Decompress algrithms

    • 发布日期:2017-05-09
    • 文件大小:1741741
    • 提供者:黄生
  1. Twitter-LDA-master

    0下载:
  2. twitter-LDA算法的JAVA实现,LDA算法针对于微博短文本的改进算法,目前只是简单的英文分词功能,没有中文分词功能,-twitter-LDA algorithm JAVA implementation, LDA algorithm for improved algorithm for short text microblogging, now just a simple English word function, there is no Chinese word function,
  3. 所属分类:Java Develop

    • 发布日期:2017-06-14
    • 文件大小:21889688
    • 提供者:张勇
  1. divide

    2下载:
  2. 采用正向最大匹配算法实现中文分词,基于matlab2013编程-MATLAB code
  3. 所属分类:数据结构常用算法

    • 发布日期:2017-04-26
    • 文件大小:619
    • 提供者:sun
« 1 2 3 4 5 67 8 »
搜珍网 www.dssz.com